ChatGPTのオープンソース版である「OpenAssistant」がプロンプトに対する回答の精度を向上させるためにアノテーションプラットフォーム使ってみんなで"AIを所持する未来"を作ってきた
public.icon
このノートの構成
1. Open Assistantについて
2. 機械学習用データセットを集めるためにアノテーションプラットフォームを開始した
3. 先行事例: AWSのMTurkについて
4. 既存のデータを判別する「アノテーション」から(データ枯渇が原因で)データを生み出す方向にシフトする
5. AIコモンセンスがコモディティ化した後
6. インターネット上で公開されていないデータをもとに動く業界特化型AI(コンソーシアム型AI)
Open Assistantについて
つまり、Microsoftを使ってるユーザーしかこの恩恵を受けられない
加えて、検閲がかけられている。どういうことかというと、暴力的なワードはOpenAIが答えないように規制している そこで、オープンソースでAIをChatGPTのオルタナティブを作るプロジェクトがある https://www.youtube.com/watch?v=64Izfm24FKA
https://gyazo.com/9f6d7e1c429fadce286e720fa9bf15e5
OSSなのでGitHub上で開発の様子が見れる
https://gyazo.com/a2fa362374fa088f58a51743a154326d
https://gyazo.com/7bb6586a94dacd2d0c67d2c64ae0a671
関連
まずは簡単に、「ChatGPTの作り方」を紹介
https://gyazo.com/06a50faaf269627e2c89f66814c1505e
https://gyazo.com/f4a1277579da40df1357002a54ba1153
それはいまだに「人間でやるのが最も効率がいい。この作業をみんなに協力してほしい!」と。
機械学習用データセットを集めるためにアノテーションプラットフォームを開始した
https://gyazo.com/48b9ade5a194d925d6a36d82123dbb90
会話を理解するプロセスについて説明
https://gyazo.com/855aa10ece4f735b5780060001a5168c
プロンプターは、会話の中での役割から、プロンプターを「ユーザー」と呼びたくなります。しかし私たちはすでに、このシステムと対話する人々を「ユーザ」と呼んでいます。そして、これらのユーザはそれぞれ、アシスタント、プロンプター、順位付け、投票などの役割を担うことができます。ですから用語は分けて考えたほうがいいでしょう。プロンプターとは会話における役割、ユーザーとは我々のデータと対話する実際の人間です。
https://gyazo.com/30ab413c771fb355a1d6fe001dc8a22f
Discordでサインインができる
https://gyazo.com/a89609fd1d73662019652c23f4480cc1
タスクをする画面。つまり、機械学習モデルをみんなで育てるような場所だ!
https://gyazo.com/06feb7e1d93b5a70fd40fc8570e75efc
これは"ユーザー"が、Linuxにどうアプリをインストールするのかと聞いてる
https://gyazo.com/4512b5af094bff9b73c2e0ef3d3851e4
もう一度ユーザーが「Linuxには詳しくない、どのパッケージマネージャーがいいの?」「Ubuntuを使っている」と聞いている様子がわかる
https://gyazo.com/ab2d56d101194eb39ebf655c7a7eb6c4
AIトレーニングのためのタスク開始!
https://gyazo.com/825440f4b2a19d8e8c5ba08221b871ec
先行事例: AWSのMTurkについて
AWSのプラットフォームの1つに「MTurk」というクラウドソーシング用のものがある
これは、以下のようなものである
1. AWSに対して企業はアノテーションしてほしいものを送る
2. クラウドワーカーは24時間いつでもMTurkにある「タスク」を取って、仕事することができる
3. 一定数のタスクを終えると報酬を受け取れる
要は、「機械学習データセットのアノテーションをクラウドソーシングできるサイト」なのだ。
調べてみると、MTurkのスクリーンショットがあった https://gyazo.com/fd6652d7798378bd8af960b8caf9678c
https://gyazo.com/544ba545374d2f7cd37ec60700b32f02
1つの作業につき数ドルから数十円の報酬で、自らを「ターカー」と呼ぶ労働者たちは、写真に色を合わせるような暗記作業かもしれないが、コンピュータを困惑させるような作業を行うのである。
哲学的な観点から言えば、これは従来のコンピューティングのパラダイムを覆すものです」と言う。「通常、人はコンピュータの助けを借りて仕事をします。この場合、コンピュータが人間からタスクを助けてもらっているのです」。
昨年11月以来、米国をはじめ100カ国以上から何千人もの労働者がMturk.comで仕事をこなしている。
企業側は確かに満足している。私がコンタクトを取った企業は、Amazon Mechanical Turkで仕事を受けると、驚くほどコストがかからないと述べています。何百人もの人にプロジェクトを分担させることで、派遣社員やコンサルタント、ましてや実際の従業員に委託するよりも早く仕事を終わらせることができるだけでなく、はるかに安価に仕事を終わらせることができるのです。このサイトのキャッチフレーズは、「格安の人工知能」でいいだろう。Mturk.comを使ってトラブルシューティングの質問に答えているある技術系企業は、通常なら数千ドルかかる仕事をMechanical Turkで数十ドルに抑えていると自慢している。そして、もし企業がターカーから得られる仕事の質が気に入らなければ、単にお金を払わなければいいのだ。
いわば、今までは国境というものが国によって主観的に引かれていて、その中で労働や、それらを超えてグローバル経済があったけど、MTurkのようなものはグローバルの最低賃金を破壊する可能性があると思っている つまり、人類最後の労働は「労働をしなくて良くするための労働」だと思っている 既存のデータを判別する「アノテーション」から(データ枯渇が原因で)データを生み出す方向にシフトする
AIコモンセンスがコモディティ化した後
企業は自前のAIを作ることになるだろうが、データを入手できるところはもうすでに大手がやってるので、「データが取れない領域をメインに」コンソーシアム型AIは発展していくであろう
人間のコモンセンスを"自然"とし、機械学習モデルに対しては人工的に入力を繰り返す姿は、人間が判断する"よさ"を入力するセンサー担っている
これは仮想通貨を使って実験されている最中だ
https://gyazo.com/8087842dbdfc72d7c6060abef4a58c07
https://gyazo.com/21c22034f4697fd04267243589c68012
分散化とオープンソースソフトウェアの動きに触発され、我々はオープンソースアテンションを提案する。
これは、スティグマーギングマーカー(人間の注意のデジタル痕跡)を作成、保存、照会するための分散型エコシステムを通じて、プラットフォームによる制御から人間の注意を「解放」する社会-技術的枠組みである。
https://gyazo.com/6ccdfa4a633fca9ffa3b5069f9d809f6
「Stigmergy」という単語は、環境に残された情報に対する反応として行動を起こす、自発的で間接的な協調行動を指すと書いてある なかでも重要視されている「スティグマジー(stigmergy)」なる概念である。それは「社会性昆虫」と呼ばれるアリやハチの群れ行動やコロニー建設行動のメカニズムについて、非常に明快な説明を与えている https://gyazo.com/22d4abf52348cf6692dba3d4332b13b2
https://gyazo.com/4138b15d67097ffb36387b15f11a9bd9
https://gyazo.com/11b7b2587297324b8693e32fd2f8a29f
コンテンツを直接修正せず、むしろシグナリングの手がかりとして機能するスティグマギー・マーカー(デジタルの場合:いいね、注釈、テキストのハイパーリンク)である
Stigmergicマーカーは、ユーザーが明示的に残したもの(例:「いいね!」)、あるいはユーザーの行動を通じて暗黙的に記録されたもの(例:リンクのクリックスルーデータ、読書時間)である場合があります。 たとえば検索エンジンのGoogleは、いわゆるAI(人工知能)的な意味において高度で複雑な計算を行ない検索精度を高めているわけではなく、むしろ人間をアルゴリズム化することで検索エンジンとして成功した。その基本設計は極めてシンプルだ。「人間は良いと判断した情報にはリンクを貼る。だとすれば、そのリンクされたページに関するログを全部集計すれば、何がいいページかはおのずと分かる」というものである。ここで興味深いのは、むしろGoogleという検索ロボットの側こそが、人間を「情報収集ロボット」のように扱っているということである。すなわち、人間こそがアルゴリズム的に、つまり単純で反復的な「リンクをはる」という行動を取ることで、そのログの集積がそのまま検索エンジンの高性能化につながるということ。これこそが検索エンジンの基本的なインパクトであることは、改めて確認しておきたい事実である。
コンテンツ発見アルゴリズムは,広大なデジタルランドスケープをナビゲートするために不可欠であるが,大部分はプラットフォームによってコントロールされている .したがって、第二のシフトは、人間中心のコンテンツ発見を通じてメーカーに権限を与えることにより、この移行をサポートするために我々の認識環境を再設計することです
この構造は他にも見られている
https://gyazo.com/687ff989ae92a2f0caebea95690f4dfb
https://gyazo.com/c01deaa589ceba056d30ea53456e8225
自分のスティグメルジック・マーカーを作成・管理し、そのデータを、個人的・集団的成長を志向するコンテンツ発見サービスと共有する権限を与えられます。コンテンツのモデレーションは重要な代表例である
モデレーションは、中央集権的なシステムでは、AI能力の固有の限界と、必要な複雑な人間の判断の規模のために、実行不可能である。対照的に、分散型エコシステムは、様々な個人や組織が自分たちのニーズに合わせてコンテンツ・モデレーション・システムを作成・調整できる「フィルターのマーケットプレイス」を可能にします。
スティグマーマーカーは公共財と考えることができる。しかし、そのユニークな重要性にもかかわらず、その分散化を特にターゲットにした研究は驚くほど少ない アノテーションツール。プラットフォームが「いいね!」ボタンを提供する場所だけでなく、そこに含まれるあらゆるURLやコンテンツ要素にマーカーを簡単に作成できるようにする
tkgshn.iconとしては、「今こそ秒速送金システムとしての「仮想通貨」があるからこそ、こういったインターネット上でのマイクロワークに対してRetroactiveに報酬が支払われるべきなのではないか」と考えている Wangらは識別されたオブジェクトとオントロジー クラスの間の文字列マッチングを提案し、Liaoら33はオンラインソースから自動 的に概念と関係をマイニングすることを提案している。効果的かつ効率的な知識照 合を可能にするためには、この分野だけでなく、Semantic Annotationの ような関連分野でのさらなる研究が必要である。 機械学習の方向性を知り、それを最大限に活用しようとするならば、知識グラフをニューラルネットワークなどの手法や、決定木、ランダムフォレスト、SVM、回帰などのより単純な機械学習手法と組み合わせて使う方法を理解する必要があるだろう
つまり、人間の言葉の曖昧性解消や推論を可能にするのは、ニューラルネットそのものではなく、知識グラフベースなのです。
ちょっと具体的にイメージしずらいと思うので他にも群衆の知恵を使ったものを紹介 https://gyazo.com/bc71ebccb4a7a1665e560954fbc645de
@nishio: なるほど、Twitterでファクトチェックしやすくなる機能追加ってわけね、いいじゃん https://pbs.twimg.com/media/Fmg-dS1akAEkPOj.jpg
https://gyazo.com/95409420a7f510aa299a1421971c009c
1. 自分のアイデンティティというか専門分野みたいなのを最初に選択
2. 流れてくるツイートに対してレビュー
3. あとはTwitterが勝手に(異なるアイデンティティの人も同意とか同じような意見であれば)注釈を追加してくれる
例: 「これは今年の火事の画像ではなく、n年前のもので〜」
https://gyazo.com/b9527b982c0e0602313027819d10785e
他にもたくさん
大規模言語モデルがOSSになると、「LAION AI」を"ジェネシスコモンセンス"(Bitcoin等のGenesis blockより)としてforkする(fine-tuning)する動きが起こる。 その結果、各業界のトップたちは連合して"取れないデータ"を集めようとする動きが起こる。
未来に起こりうるこれを、これを「コンソーシアム型 AI」と呼ぶことが可能であろう。